目前 AI 應用的一大瓶頸便是幻覺問題。
還記得我們在第四篇 淺入探討 LLM:它是如何運作的?有提到 LLM 的思考方式與人類相差甚大,LLM 基本上就是一個複雜的自動選字程式,這導致了他無法判斷他輸出的訊息是否正確。
為了解決該問題,於是便有了 “思維鏈”(Chain of Thought, CoT)的概念。她重點在於讓 AI 不要直接蹦出答案,而是一步一步推演出答案
最簡單的方式就是特別告知 AI
【請逐步推導,不要直接生成答案】即可
這簡單的一句話,便能提升準確度一個量級
根據實際測試,一步一步推演能大幅提升準確度,甚至能提升數倍的效益。
提高回應正確性:將複雜問題分解為簡單步驟,減少錯誤。
加強可追溯性:每一個步驟都可以進行檢查,便於發現錯誤或偏差。
Prompt 更好調整:你可以根據他的思考方向做 prompt 的修正,對於提示詞工程有很好的改善
毫無疑問的就是因為花更多時間在推導,所以生成時間更長、花的錢也更多了
請把 LLM 當成一個剛大學畢業的實習生,LLM 在處理複雜問題的能力上很容易出錯。
今天舉個例子
請幫我生成一個簡單的 ToDo 應用程式,使用 JavaScript。
為了讓 AI 更好更準確地做這件事情,你有兩種做法
自己設計步驟與架構
你可以手動再把這個問題拆分成
生成應用程式的基礎架構
逐步補充功能
讓 AI 自己想步驟與架構
你可以多加一句請一步一步生成程式碼,並且參考現代軟體開發的設計流程來做開發
自己設計步驟與架構
優點在於這個方法論是你自己提出的,在 prompt 調整上可以做到更精確的調整,當然缺點就是使用場景會被侷限
讓 AI 自己想步驟與架構
優點在於更通用,開發成本更低,當然 AI 的生成會更不可控制、更不穩定
接下來我們開始直接來帶 AI 應用的實際開發